Sin los pies sobre la tierra

Ahora bien, ¿a qué realidad se refieren? a aquella que nos indica "cómo es mejor vivir" siguiendo las costumbres de nuestros padres, aprendiendo sus oficios y llevando una vida "casi igual" a la que ellos llevaron?
¿O es simplemente aceptar lo que sucede como sucede y sin preguntarnos por qué sucede? Quedando solo la resignación y el consuelo de que a otros les va peor?
A mí eso de "Poner los pies sobre la tierra" me suena a una exigencia a renunciar a nuestros sueños, alejándonos de el cambio que necesitamos para condenarnos a la rutina absoluta de lo que es ya conocido, es como querer cortarle las alas a los seres ansiosos por conocer nuevos horizontes, inculcando de cierta forma la pereza y el conformismo.
He aquí una frase sobre esos sueños:
" Cuando renunciamos a nuestros sueños y encontramos la paz, tenemos un pequeño período de tranquilidad. Pero los sueños muertos comienzan a pudrirse dentro de nosotros e infectan todo el ambiente en el que vivimos. Empezamos a ser crueles con los que nos rodean y finalmente comenzamos a dirigir esa crueldad contra nosotros mismos"
Mejor es no ser tan negativos, ni la realidad, ni la fantasia tienen que ser malas y nuestras decisiones menos.
Por lo pronto me quedo levitanto. No quiero tener los pies sobre la tierra, pero tampoco me alejo mucho de ella :P
0 comentarios